home *** CD-ROM | disk | FTP | other *** search
/ Ian & Stuart's Australian Mac: Not for Sale / Another.not.for.sale (Australia).iso / hold me in your arms / Virtual-Worlds / commercial / Cyberfinger-NikkeiWeekly < prev    next >
Text File  |  1993-12-16  |  11KB  |  234 lines

  1. 1.   The Nikkei Weekly, November 15, 1993, SCIENCE & TECHNOLOGY; Page 13, 561
  2. words, For Cyberfingers, it's all in the wrist action Neural Chip Removes Need
  3. For Data Glove
  4.  
  5. 2.   The Nikkei Weekly, April 12, 1993, MANAGEMENT & LABOR; Science Technology;
  6. Pg. 10, 1022 words, Computer scientists try thought control; Myoelectric
  7. potentials seen as stepping stones to 'brainy' machines, THE NIKKEI BUSINESS
  8.  
  9.  
  10.  
  11. The Nikkei Weekly
  12.  November 15, 1993
  13.  
  14. SECTION: SCIENCE & TECHNOLOGY; Page 13
  15.  
  16. LENGTH: 561words
  17.  
  18. HEADLINE: For  Cyberfingers,  it's all in the wrist action
  19. Neural Chip Removes Need For Data Glove
  20.  
  21.  BODY:
  22.    As high-tech gadgetry goes, the data glove is hard to beat.  When
  23. you put the data glove on your hand, the means to control virtual
  24. reality is literally at your fingertips.
  25.  
  26.    But the data glove is bulky.  Is there no easier way to get a handle on
  27. cyberspace?
  28.  
  29.    Yes, the  Cyberfinger,  say researchers at the Human Interface Laboratories
  30. of Nippon Telegraph and Telephone Corp.
  31.  
  32.  NTT's Cyberfinger is a control technology, designed to govern the
  33. movements of a robot hand in master-slave fashion, as well as to allow
  34. a user to interact with computers and virtual reality environments.
  35. The NTT team also foresees applications in the field of prosthetics,
  36. where the technology could be used to control an artificial hand that
  37. responds to the wearer's intentions.
  38.  
  39.    The  Cyberfinger's  control technology has two main components.  One is a
  40. two-electrode sensor which captures electrical signals generated by muscles in
  41. the wrist.  The other is a neural chip, a type of integrated circuit that can
  42. learn to recognize patterns.
  43.  
  44.    This neural chip is first taught how the signals coming from the wrist sensor
  45. correspond to actual movements of the hand and fingers.  Once it has learned, it
  46. can then forward the signals on as commands to move a robot hand, or a virtual
  47. hand in cyberspace.
  48.  
  49.    Myoelectric potential
  50.  
  51.    The  Cyberfinger  takes advantage of the fact that the muscles which control
  52. finger movement all converge at the wrist; the signals from the brain that
  53. course down nerves to activate hand movements trigger muscles here.  At the
  54. wrist, as the muscles contract, a type of electric potential known as a
  55.  
  56.              The Nikkei Weekly, November 15, 1993
  57.  
  58. myoelectric potential is generated.  The wrist sensor picks up the changes in
  59. this myoelectric potential.
  60.  
  61.    In order to teach the neural chip how these electric signals correspond to
  62. actual hand and finger movements, a person wears the wrist sensor and a data
  63. glove at the same time, and moves his hand and fingers around.  The neural chip
  64. compares the two sets of data - one coming from the sensor, and the other from
  65. the data glove, which senses movements in the first and second joints of each
  66. finger.
  67.  
  68.    In tests, NTT says the neural chip was able to learn the rules linking
  69. myoelectric potential and finger movement in just two minutes.
  70.  
  71.    After that, the data glove was removed, and the neural chip alone was able to
  72. direct the movement of a robot hand, based on the signals received from the
  73. wrist sensor alone.
  74.  
  75.    NTT says the system can control complex finger movements, and not just simple
  76. opening and closing of the fist.  The robot fingers bend like the human fingers
  77. bend, imitating the angle of bending with an error of less than 20 degrees on
  78. average, the company claims.
  79.  
  80.  
  81.  
  82.    That degree of error, while seemingly large, is actually a major
  83. accomplishment.  The changes in myoelectric potential which accompany wrist
  84. movement differ from person to person, and even within the same person from time
  85. to time.  Developing a neural chip capable of sorting out the noise and
  86. determining the underlying patterns was a technical feat in and of itself.
  87.  
  88.    "We were pleasantly surprised that such accurate movement could be achieved
  89. with just two electrodes," admitted Akira Hiraiwa, director of the Human
  90. Interfac Laboratories. "Our next goal is to improve the system so it can
  91. recognize the relative strength of finger movements, and not just the angle of
  92. bending."
  93.  
  94.                    The Nikkei Weekly
  95.  
  96.                                  April 12, 1993
  97.  
  98. SECTION: MANAGEMENT & LABOR; Science Technology; Pg. 10
  99.  
  100. LENGTH: 1022 words
  101.  
  102. HEADLINE: Computer scientists try thought control;
  103. Myoelectric potentials seen as stepping stones to 'brainy' machines
  104.  
  105. BYLINE: THE NIKKEI BUSINESS
  106.  
  107.  BODY:
  108.    Today's computers are controlled by input from a keyboard, a mouse, a pen.
  109. Soon they will be equipped with voice-recognition capabilities.  But some
  110. engineers are looking to the day when machines can be controlled directly by
  111. thought.
  112.  
  113.    At the Human Interface Laboratories of Nippon Telegraph and Telephone Corp. a
  114. researcher curls and stretches his fingers, and a robot hand faithfully mimics
  115.  
  116. his actions.
  117.  
  118.    This "slave hand" is controlled by a sensor strapped to his wrist.  The
  119. sensor picks up the extremely small electric currents -- called myoelectric
  120. potentials -- that occur in muscle tissue as the fingers move.  This information
  121. is processed to determine not only whether a fingers move.  This information is
  122. processed to determine not only whether a finger has been curled or extended but
  123. also with how much force.  this is then used to control the movement of the
  124. robot hand.
  125.  
  126.    NTT's " cyberfinger"  project is much more involved than you might think.
  127. The strength of these myoelectric potentials differ not only among individuals
  128. but also within any given individual at any given time.  Even if a person
  129. consciously attempts to bend a finger with the same force as before, minute
  130. differences in the myoelectric potentials are generated.
  131.  
  132.    To compensate for this, data is processed by a neural network capable of
  133. dealin with subtle variations in the myoelectric potentials and making accuratei
  134. nferences about the person's intention.
  135.  
  136. Ghost in the machine
  137.  
  138.  "The research is a step toward the ultimate goal of transferring human
  139. thoughts naturally to machines," Akira Hiraiwa, director of the laboratories,
  140. explains.
  141.  
  142.    Paralleling his work with the cyber-finger, Hiraiwa is investigating whether
  143. thoughts can be used as input signals to a computer.
  144.  
  145.    Human speech and hand movements register as changes in brain wave activity
  146. slightly before the muscles actually move.  If these "preparatory electric
  147. potentials" can be detected, it should be possible to recognize an intention to
  148. act.
  149.  
  150.    In one set of experiments, an NTT research group attached electrodes to the
  151. heads of test subjects and recorded brain wave patterns as the subjects
  152. pronounced one of two sounds: "ahh" or "ooh."
  153.  
  154.    The recordings showed that electric potentials begin to change about one
  155. second before the sounds are articulated.  By analyzing these preparatory
  156. electric potentials, it was possible to predict which sound the subjects were
  157. about to say.
  158.  
  159.  This, too, was much more involved than you might think.  The brain houses an
  160. extremely large number of neurons, many acting simultaneously to process sights
  161. and sounds, to coordinate movements and such.  All of this neuronal activity is
  162. manifest in brain waves, so it is extremely difficult to tease out only signals
  163. of interest.
  164.  
  165.    In order to determine which electric potentials in the brain were associated
  166. with the test subjects' preparation to pronounce each of the two sounds, the NTT
  167. researchrs relied on computer processing using a neural network.
  168.  
  169.    First they taught the neural network to recognize brain wave patterns known
  170. to be associated with the pronunciation of "ahh" and "ooh." With practice, the
  171. network eventually learned to recognize with 100% accuracy both sounds before
  172. they were uttered, based solely on changes in preparatory electric potentials.
  173.  
  174.    Similar experiments were conducted with subjects manipulating a joystick.  In
  175. this case, the neural network eventually managed to predict with 60-80% accuracy
  176. whether the subjects were going to move their hand to the left, right or center.
  177.    However, the whole process in both sets of experiments was extremely time
  178. consuming.  "Even using a supercomputer, it can take hours to teach the neural
  179. network," Hiraiwa admits.
  180.  
  181.  
  182.  Another shortcoming with the NTT experiments is that they both concentrated
  183. on detecting changes in brain wave patterns prior to a change in muscle
  184. activity, be it a hand motion or a vocalization.  These changes do not arise
  185. unless the person is actually going to follow through with an action.
  186.  
  187.    Why go through the trouble of designing a computer that responds a priori to
  188. brain activity that, by its very nature, must be carried out physically anyway?
  189. Why not go one step further and develop a system that can recognize thoughts not
  190. tied to muscle action?
  191.  
  192. Tapping the inner voice
  193.  
  194.    That is exactly what researchers at the Fujitsu laboratory have set out to
  195. do.  A group led by Norio Jujimaki is trying to tap into the inner voice humans
  196. use, for example, when reading to themselves.  No muscles move during this
  197. silent speech, so to study it is to directly observe human thoughts.
  198.  
  199.    In one group of experiments, subjects were asked to silently voice the sound
  200. "ahh" whenever a light wasturned on in front of them.  The subjects' brain wavep
  201. atterns were recorded throughout the tests.  Analysis of these recordings
  202. revealed that negative electric potentials are generated around the periphery of
  203. the frontal lobe just after the light turns on.
  204.  
  205.  
  206.  Building on this work, the Fujitsu researchers have now turned their
  207. attention to the extremely weak magnetic fields emitted by the brain.
  208.  
  209.    Using a highly sensitive detector known as a superconducting quantum
  210. interference device, the group is trying to identify precisely which part of the
  211. brain is involved in silent speech.
  212.  
  213.    However, the work has barely begun, and it might be a long time before any
  214. fruit can be harvested, because the tests are extremely demanding on the
  215. subjects.
  216.  
  217.    In the first series of experiments, which took 10 hours to complete, eight
  218. subjects underwent 50 to 100 trials and the recordings were averaged together to
  219. isolate signals related to silent speech from background noise.  The only result
  220. of all this effort was evidence that brain wave patterns are different when
  221. subjects silently speak the "ahh" sound.
  222.  
  223.    "It's still too early to say whether we are really extracting information
  224. related to thought from the brain," group leader Shinya Hasuo admits.  "But if
  225. we can differentiate between a silent 'yes' and a silent 'no' after three years
  226. of research, I'll consider the project a success."
  227.  
  228.  
  229.  
  230.  
  231. GRAPHIC: Picture, The ultimate brain wave, Sources: Nikkei Business
  232. Publications, NTT
  233.  
  234.